딥페이크 기술과 윤리

1. 서론: 새로운 현실의 서막, 딥페이크

1.1 딥페이크 기술의 부상과 사회적 의미

’딥러닝(Deep Learning)’과 ’가짜(Fake)’의 합성어인 딥페이크(Deepfake)는 인공지능(AI) 기술, 특히 심층 신경망(Deep Neural Network)을 이용하여 기존의 이미지나 영상을 조작함으로써, 실제와 구별하기 어려운 극사실적인 합성 미디어를 생성하는 기술을 총칭한다.1 이 기술은 2017년 말, 온라인 커뮤니티 레딧(Reddit)의 한 사용자가 유명인의 얼굴을 포르노그래피 영상에 합성한 게시물을 올리면서 대중에게 급속도로 알려지기 시작했다.4 초기에는 학술 기관과 일부 아마추어 개발자 커뮤니티를 중심으로 발전했으나, 이후 오픈소스 소프트웨어와 사용자 친화적인 애플리케이션이 등장하면서 기술의 접근성이 비약적으로 향상되었다.4 이로 인해 딥페이크는 더 이상 전문가의 영역이 아닌, 사회 전반에 광범위하고 심대한 영향을 미치는 보편적 기술 현상으로 자리 잡았다.

1.2 기술의 양면성과 윤리적 고찰의 필요성

딥페이크 기술은 그 자체로 가치중립적인 도구이지만, 사용자의 의도에 따라 극명한 양면성을 드러낸다.8 한편으로는 엔터테인먼트, 의료, 교육, 예술 등 다양한 분야에서 혁신을 촉진하는 긍정적 잠재력을 지닌다.7 영화 제작의 비용을 절감하고, 의료 AI의 진단 정확도를 높이며, 몰입감 있는 교육 콘텐츠를 제공하는 등 그 활용 가능성은 무궁무진하다. 다른 한편으로는 가짜뉴스 유포, 금융사기, 디지털 성범죄, 선거 개입 등 사회의 근간을 흔드는 심각한 위협을 야기하는 파괴적 잠재력 또한 내포하고 있다.1 이처럼 딥페이크는 현대 사회에 ’양날의 검’과 같은 존재로 부상했다.

따라서 이 기술이 제기하는 복합적인 윤리적 딜레마를 해결하고 사회적 부작용을 최소화하기 위해서는, 기술의 작동 원리에 대한 깊이 있는 이해가 선행되어야 한다. 이를 바탕으로 딥페이크가 초래하는 기회와 위협을 다각적으로 분석하고, 기술적, 법·제도적, 사회·문화적 차원을 아우르는 다층적인 대응 방안을 모색하는 것이 우리 시대의 시급하고도 중요한 과제이다. 본 안내서는 딥페이크의 기술적 토대부터 구체적인 활용 사례, 그로 인한 윤리적 쟁점과 사회적 대응까지를 총체적으로 고찰함으로써, 기술과 인간의 책임 있는 공존을 위한 방향성을 제시하고자 한다.

2. 딥페이크의 기술적 토대와 작동 원리

딥페이크 기술의 정교함은 인공지능 분야, 특히 생성 모델(Generative Model)의 비약적인 발전 위에 서 있다. 이 기술의 핵심을 이해하기 위해서는 생성 모델의 두 가지 대표적인 아키텍처, 즉 변이형 오토인코더(Variational Autoencoder, VAE)와 생성적 적대 신경망(Generative Adversarial Network, GAN)의 구조와 작동 원리를 심층적으로 분석할 필요가 있다.

2.1 생성 모델의 두 기둥: VAE와 GAN

이 장에서는 딥페이크 기술의 근간을 이루는 VAE와 GAN의 수학적 원리와 메커니즘을 상세히 탐구한다. 이 두 모델은 데이터를 생성하는 방식에서 근본적인 철학의 차이를 보이며, 이는 딥페이크 기술의 특성과 발전 방향을 이해하는 데 중요한 단서를 제공한다.

2.1.1 확률적 잠재 공간의 구축: 변이형 오토인코더(VAE)

2.1.1.1 오토인코더(AE)의 기본 구조와 한계

오토인코더(Autoencoder, AE)는 입력 데이터를 저차원의 잠재 공간(latent space)으로 압축하는 인코더(Encoder)와, 이 압축된 표현으로부터 원본 데이터를 다시 복원하는 디코더(Decoder)로 구성된 비지도 학습(unsupervised learning) 신경망이다.12 AE의 주된 목적은 데이터 압축, 노이즈 제거, 그리고 유의미한 특징 추출(feature extraction)에 있다.13 학습 과정에서 네트워크는 입력과 출력 간의 차이, 즉 재구성 오류(reconstruction error)를 최소화하도록 훈련된다.

그러나 전통적인 AE는 생성 모델로서 명백한 한계를 가진다. 인코더가 입력을 잠재 공간의 한 점(a single point)으로 매핑하는 결정론적(deterministic) 구조를 가지기 때문에, 잠재 공간이 정규화(regularization)되어 있지 않다.15 이는 잠재 공간 내에 데이터가 존재하지 않는 빈 공간, 즉 ’구멍(hole)’이 존재할 수 있음을 의미한다. 따라서 잠재 공간에서 임의의 점을 샘플링하여 디코더에 입력하더라도 의미 있는 새로운 데이터를 생성한다는 보장이 없다.15 이러한 불연속적이고 불완전한 잠재 공간 구조는 AE가 안정적인 생성 모델로 기능하는 것을 방해하는 근본적인 원인이 된다.

2.1.1.2 VAE의 확률론적 인코딩과 재매개변수화 기법

변이형 오토인코더(VAE)는 AE의 이러한 한계를 극복하기 위해 결정론적 접근 대신 확률론적(probabilistic) 접근을 도입한 생성 모델이다.14 VAE의 인코더는 입력 데이터 x를 잠재 공간의 특정 벡터 z로 직접 매핑하는 대신, 잠재 공간 상의 확률분포(일반적으로 다변량 가우시안 분포)를 정의하는 파라미터, 즉 평균 벡터 \mu와 분산 벡터 \sigma^2를 출력한다.15 이는 각 입력 데이터가 잠재 공간에서 하나의 점이 아닌, 하나의 확률적 영역으로 표현됨을 의미한다.

이후 잠재 벡터 z는 이 분포로부터 샘플링(sampling)된다. 하지만 샘플링 과정은 무작위성을 내포하기 때문에, 그대로는 경사하강법(gradient descent)을 통한 역전파(backpropagation) 학습이 불가능하다. VAE는 이 문제를 ’재매개변수화 기법(Reparameterization Trick)’이라는 독창적인 방법으로 해결한다.14 잠재 벡터 zz = \mu + \sigma \odot \epsilon (여기서 \epsilon은 표준정규분포 \mathcal{N}(0, I)에서 샘플링된 무작위 노이즈 벡터이고, \odot는 원소별 곱셈을 의미함)으로 재정의하는 것이다.14 이 기법을 통해 샘플링의 무작위성은 외부에서 주입된 \epsilon에 국한되고, 모델의 파라미터인 \mu\sigma는 결정론적인 경로를 통해 z에 영향을 미치게 된다. 결과적으로 모델 전체가 미분 가능(differentiable)해져 종단간(end-to-end) 학습이 가능해진다.

2.1.1.3 손실 함수 분석: 재구성 오류와 KL 발산의 의미

VAE의 학습 목표는 증거 하한(Evidence Lower Bound, ELBO)을 최대화하는 것으로, 이는 VAE의 손실 함수(loss function)를 최소화하는 것과 같다.20 이 손실 함수는 상충하는 두 가지 목표를 동시에 달성하도록 설계된 두 개의 항으로 구성된다.24

  1. 재구성 손실 (Reconstruction Loss): 이 항은 \mathbb{E}_{q_\phi(z \rvert x)}[\log p_\theta(x \rvert z)]로 표현되며, 인코더가 만든 잠재 벡터 z로부터 디코더가 원본 입력 x를 얼마나 잘 복원하는지를 측정한다. 이는 모델이 데이터의 주요 특징을 학습하여 충실하게 재구성하도록 유도하는 역할을 한다.14
  2. 쿨백-라이블러 발산 (Kullback-Leibler Divergence, KL Divergence): 이 항은 D_{KL}(q_\phi(z \rvert x) \rvert\rvert p(z))로 표현되며, 인코더가 출력하는 근사 사후분포(approximate posterior) q_\phi(z \rvert x)와 우리가 잠재 공간에 부여하고자 하는 사전분포(prior) p(z)(일반적으로 표준정규분포 $\mathcal{N}(0, I)`) 사이의 차이를 측정하는 정규화(regularization) 항이다.17 이 항은 인코더가 생성하는 잠재 변수들의 분포가 사전분포와 유사해지도록 강제한다. 그 결과, 잠재 공간은 데이터가 밀집된 클러스터들 사이의 빈 공간 없이 연속적(continuity)이고 완전한(completeness) 구조를 갖게 된다.14 이는 잠재 공간의 어느 지점에서 샘플링하더라도 의미 있는 데이터를 생성할 수 있는 기반이 된다.

최종적으로 VAE의 손실 함수는 다음과 같이 표현된다. 모델은 이 손실 값을 최소화하는 방향으로 학습된다.
\mathcal{L}(\theta, \phi; x) = - \mathbb{E}_{q_\phi(z \rvert x)}[\log p_\theta(x \rvert z)] + D_{KL}(q_\phi(z \rvert x) \rvert\rvert p(z))

2.1.2 진위(眞僞)를 향한 제로섬 게임: 생성적 적대 신경망(GAN)

2.1.2.1 생성자(G)와 판별자(D)의 적대적 학습 메커니즘

생성적 적대 신경망(Generative Adversarial Network, GAN)은 2014년 이안 굿펠로우(Ian Goodfellow)와 그의 동료들에 의해 제안된 혁신적인 생성 모델 프레임워크이다.28 GAN의 핵심 아이디어는 두 개의 신경망, 즉 생성자(Generator)와 판별자(Discriminator)가 서로 경쟁하는 적대적(adversarial) 과정을 통해 학습한다는 점이다.1

  • 생성자 (Generator, G): 위조지폐범에 비유할 수 있다.36 이 네트워크는 잠재 공간(latent space)으로부터 샘플링된 무작위 노이즈 벡터 z를 입력받아, 실제 데이터와 유사한 가짜 데이터 G(z)를 생성하는 역할을 한다.30 생성자의 목표는 판별자를 완벽하게 속일 수 있을 만큼 정교하고 현실적인 데이터를 만들어내는 것이다.
  • 판별자 (Discriminator, D): 경찰에 비유할 수 있다.36 이 네트워크는 입력된 데이터가 훈련 데이터셋에서 온 실제 데이터(x)인지, 아니면 생성자가 만든 가짜 데이터(G(z))인지를 판별하는 이진 분류기(binary classifier) 역할을 한다.35 판별자는 입력 데이터의 진위 여부를 0과 1 사이의 확률 값으로 출력하며, 실제 데이터는 1에 가깝게, 가짜 데이터는 0에 가깝게 분류하도록 학습된다.

학습 과정은 두 네트워크가 서로의 성능을 끌어올리는 제로섬 게임(zero-sum game)의 형태로 진행된다.34 생성자는 판별자를 속이기 위해 점점 더 실제와 가까운 데이터를 생성하도록 자신의 가중치를 업데이트하고, 판별자는 생성자가 만든 가짜 데이터를 더 정확하게 간파하기 위해 자신의 가중치를 업데이트한다. 이 끊임없는 경쟁과 피드백의 순환을 통해, 두 네트워크는 점진적으로 성능이 향상된다. 이 게임의 이상적인 종착점은 생성자가 실제 데이터의 분포를 완벽하게 모방하여, 판별자가 더 이상 진위 여부를 50%의 확률(동전 던지기와 같은) 이상으로 구별할 수 없는 상태, 즉 내쉬 균형(Nash Equilibrium)에 도달하는 것이다.37

이러한 GAN의 적대적 학습 구조는 기술 내부에 이미 ’군비 경쟁’의 메커니즘을 내장하고 있음을 보여준다. 생성자가 더 정교한 가짜를 만들면, 판별자는 이를 간파하기 위해 더 발전해야만 한다. 이 동적인 상호작용은 딥페이크 기술 발전의 핵심 원동력이자, 동시에 사회에서 벌어지는 딥페이크 생성 기술과 탐지 기술 간의 끊임없는 ’창과 방패’의 경쟁을 예고하는 축소판이라 할 수 있다. 이는 딥페이크 문제가 단 하나의 기술적 해결책으로 종결될 수 없으며, 기술적 대응은 영원한 추격전이 될 가능성이 높음을 시사한다. 따라서 기술적 탐지에만 의존하는 접근 방식의 근본적 한계를 인식하고, 법적·윤리적 규범 확립을 포함한 다층적 대응이 필수적임을 기술의 본질 자체가 역설한다.

2.1.2.2 Minimax 목적 함수의 수학적 유도와 그 의미

GAN의 적대적 학습 과정은 다음과 같은 minimax 목적 함수(objective function)로 수학적으로 공식화된다.31
\min_{G} \max_{D} V(D, G) = \mathbb{E}_{x \sim p_{\text{data}}(x)} + \mathbb{E}_{z \sim p_{z}(z)}
이 함수의 각 부분은 생성자와 판별자의 상반된 목표를 반영한다.

  • 판별자(D)의 목표 (\max_{D} V(D, G)): 판별자는 가치 함수 V(D, G)를 최대화하고자 한다. 이를 위해 첫 번째 항 \mathbb{E}_{x \sim p_{\text{data}}(x)}를 최대화해야 한다. 즉, 실제 데이터 x가 입력되었을 때 판별 확률 D(x)를 1에 가깝게 만들어야 한다. 동시에 두 번째 항 \mathbb{E}_{z \sim p_{z}(z)}를 최대화해야 하는데, 이는 가짜 데이터 G(z)가 입력되었을 때 판별 확률 D(G(z))를 0에 가깝게 만들어야 함을 의미한다.41
  • 생성자(G)의 목표 (\min_{G} V(D, G)): 생성자는 반대로 가치 함수 V(D, G)를 최소화하고자 한다. 첫 번째 항은 생성자 G와 무관하므로, 생성자는 두 번째 항 \mathbb{E}_{z \sim p_{z}(z)}를 최소화하는 데 집중한다. 이는 판별자가 가짜 데이터 G(z)를 실제 데이터로 착각하도록, 즉 D(G(z))를 1에 가깝게 만드는 것을 목표로 함을 의미한다.39
2.1.2.3 학습 과정의 안정성 문제와 주요 변형 모델

초기의 GAN, 즉 바닐라 GAN(Vanilla GAN)은 이론적으로는 강력하지만 실제 학습 과정에서 여러 불안정성 문제를 노출했다.33 대표적인 문제로는 생성자가 판별자를 속이기 쉬운 소수의 특정 결과물만을 반복해서 생성하는 ‘모드 붕괴(mode collapse)’ 현상과, 판별자의 성능이 생성자에 비해 너무 압도적으로 좋아져 생성자에게 유의미한 그래디언트(gradient)가 전달되지 않아 학습이 정체되는 ‘그래디언트 소실(vanishing gradients)’ 문제가 있다.41

이러한 문제들을 해결하고 학습의 안정성과 생성물의 품질을 높이기 위해 수많은 GAN의 변형 모델들이 제안되었다. 예를 들어, 목적 함수를 어스 무버 거리(Earth-Mover distance)로 변경하여 학습 안정성을 크게 개선한 Wasserstein GAN(WGAN), 이미지의 스타일을 계층적으로 제어하여 고해상도의 사실적인 이미지를 생성하는 StyleGAN, 쌍을 이루지 않은 데이터셋 간의 이미지 변환을 가능하게 한 CycleGAN 등이 대표적이다.30

이처럼 VAE와 GAN은 생성 모델 설계에 있어 근본적인 철학적 차이를 보인다. VAE는 KL 발산 항을 통해 잠재 공간에 ’정규분포’라는 강력한 통계적 질서를 부여함으로써 안정성과 제어 가능성을 확보한다. 반면, GAN은 판별자와의 경쟁을 통해 ‘자유롭게’ 데이터 분포를 학습함으로써 더 높은 수준의 창의성과 현실성을 추구한다. 딥페이크 기술의 발전사는 이 두 철학, 즉 ’질서’와 ‘자유’ 사이의 균형점을 찾아가는 과정으로 해석될 수 있다. 초기 딥페이크가 오토인코더 구조를 활용한 것은 ’얼굴 교체’라는 명확한 목표 제어에 유리했기 때문이며 6, 이후 GAN으로의 기술적 전환은 극사실주의적 결과물을 향한 열망을 반영한다. 미래의 딥페이크 기술은 VAE의 구조화된 잠재 공간과 GAN의 현실성 높은 생성 능력을 결합한 하이브리드 모델의 형태로 진화하며 ’제어 가능한 창의성’이라는 더 복잡한 목표를 추구하게 될 것이다.

3. 딥페이크의 빛과 그림자: 활용 사례 분석

딥페이크 기술은 사회 각 분야로 빠르게 확산되며 혁신적인 기회를 제공하는 동시에 전례 없는 위협을 야기하고 있다. 이 부에서는 딥페이크 기술의 구체적인 활용 사례를 통해 그 빛과 그림자를 심층적으로 분석한다.

3.1 창의성과 혁신의 도구

딥페이크 기술은 다양한 산업 분야에서 기존의 한계를 넘어서는 새로운 가능성을 열어주고 있다. 특히 엔터테인먼트, 의료, 교육, 예술 분야에서의 긍정적 활용 사례는 기술이 인류에게 기여할 수 있는 잠재력을 명확히 보여준다.

3.1.1 엔터테인먼트 산업의 재편

엔터테인먼트 산업은 딥페이크 기술을 가장 적극적으로 활용하는 분야 중 하나이다. 영화 및 광고 제작에서 딥페이크는 시각 효과(VFX)의 패러다임을 바꾸고 있다. 예를 들어, 영화 ’로그 원: 스타워즈 스토리’에서는 1994년에 작고한 배우 피터 쿠싱을 디지털로 복원하여 스크린에 등장시켰고 1, 영화 ’아이리시맨’에서는 주연 배우들의 젊은 시절 모습을 자연스럽게 재현했다.11 이러한 기술은 배우의 나이나 사망 여부와 관계없이 창의적인 캐스팅을 가능하게 하고, 복잡한 분장이나 CG 작업에 소요되던 막대한 비용과 시간을 획기적으로 절감시킨다.

광고 분야에서도 딥페이크는 글로벌 마케팅의 효율성을 극대화하는 도구로 활용된다. 유명 축구 선수 데이비드 베컴이 출연한 말라리아 퇴치 캠페인 광고에서는 딥페이크 기술을 이용해 그가 9개의 다른 언어로 메시지를 전달하는 모습을 구현했다.9 이는 타겟 시장의 언어와 문화에 맞춰 개인화된 광고 콘텐츠를 손쉽게 제작할 수 있게 하여 소비자와의 친밀감을 높이는 효과를 가져온다.12

3.1.2 의료 및 교육 분야의 새로운 지평

의료 분야에서 딥페이크 기술은 데이터 부족 문제를 해결하고 의료진의 훈련 효과를 높이는 데 기여하고 있다. 희귀 질환의 경우, 학습에 필요한 의료 영상 데이터가 절대적으로 부족한데, 딥페이크 기술을 이용해 실제와 유사한 가상의 의료 영상(CT, MRI, X-ray 등)을 대량으로 생성함으로써 AI 진단 모델의 학습 데이터로 활용할 수 있다.45 이를 통해 AI 진단 모델의 정확도와 신뢰성을 향상시킬 수 있다. 또한, 실제 환자 없이도 다양한 증상과 해부학적 구조를 가진 가상의 환자를 만들어 복잡한 수술 절차를 시뮬레이션하고, 이를 의료진의 훈련에 활용함으로써 임상 능력 향상에 도움을 줄 수 있다.10 더 나아가, 환자의 신원 보호를 위해 의료 영상 기록을 익명화하는 데에도 사용될 수 있다.48

교육 분야에서는 학습의 몰입도와 개인화를 높이는 혁신적인 도구로 주목받고 있다. 역사적 인물을 생생하게 복원하여 학생들과 상호작용하는 역사 교육 콘텐츠를 제작하거나 7, 유명 교육자나 과학자의 외모와 목소리를 가진 가상 튜터를 만들어 학생 개개인의 수준과 필요에 맞는 맞춤형 학습을 제공할 수 있다.10 이러한 접근은 학습자의 흥미를 유발하고 교육 효과를 극대화할 잠재력을 지닌다.

3.1.3 예술과 표현의 자유 확장

딥페이크는 예술가들에게 새로운 표현의 도구를 제공하며 예술의 경계를 확장하고 있다. 미국 플로리다의 달리 박물관에서는 초현실주의 화가 살바도르 달리를 딥페이크 기술로 부활시켜 관람객들과 대화하고 함께 사진을 찍는 인터랙티브 전시 ’달리, 살아있다(Dalí Lives)’를 선보여 큰 호응을 얻었다.1 국내에서도 Mnet의 AI 음악 프로젝트 ’다시 한번’이나 TVING의 ’얼라이브’와 같은 프로그램을 통해 고인이 된 가수 김광석, 터틀맨, 임윤택 등의 목소리와 모습을 복원하여 새로운 무대를 선보임으로써 대중에게 깊은 감동을 주었다.49 이는 예술적 상상력이 기술과 결합하여 시공간을 초월한 새로운 형태의 스토리텔링과 예술적 경험을 창출할 수 있음을 보여준다.7

뿐만 아니라, 딥페이크 기술은 사회적 약자의 정보 접근성을 향상시키는 데에도 기여할 수 있다. 청각 장애인을 위해 매우 사실적인 표정과 입 모양을 가진 수어 통역사 아바타를 생성하거나, 다양한 언어로 콘텐츠를 자연스럽게 더빙하여 언어 장벽을 허무는 데 활용될 수 있다.9 이처럼 딥페이크는 창의적이고 포용적인 사회를 만드는 데 긍정적인 역할을 수행할 잠재력을 가지고 있다.

3.2 사회를 위협하는 디지털 무기

딥페이크 기술의 긍정적 잠재력 이면에는 사회의 신뢰를 파괴하고 개인의 삶을 위협하는 어두운 그림자가 존재한다. 기술의 접근성이 높아지면서 4, 과거에는 국가나 거대 기관만이 가능했던 정교한 정보 조작을 이제는 개인 수준에서도 손쉽게 실행할 수 있게 되었다. 이는 ‘위협의 민주화’ 현상을 낳았지만, 그 영향력은 극히 비대칭적이다. 딥페이크를 제작하고 유포하는 데 드는 비용과 노력은 매우 낮은 반면, 그로 인해 발생하는 개인적·사회적 피해는 막대하다. 이러한 비대칭성은 소수의 악의적 행위자가 사회 전체에 막대한 피해를 입힐 수 있는 구조를 만들며, 딥페이크 위협 대응의 핵심적인 어려움으로 작용한다.

3.2.1 인격의 파괴: 디지털 성범죄와 명예훼손

딥페이크 기술의 가장 심각하고 비윤리적인 악용 사례는 비동의 성착취물 제작 및 유포이다.51 특정인의 얼굴, 특히 여성과 청소년의 얼굴을 기존의 성적인 영상물에 합성하여 유포하는 이러한 행위는 피해자의 인격을 말살하고 극심한 정신적 고통을 안겨주는 심각한 디지털 성범죄이다.50 2019년 네덜란드의 사이버 보안 기업 딥트레이스(Deeptrace)의 안내서에 따르면, 온라인에서 발견된 딥페이크 영상의 96%가 포르노그래피였으며, 그 피해자는 예외 없이 모두 여성이었다.51 이러한 범죄는 피해자에게 평생 지울 수 없는 상처를 남기고 사회적 낙인을 찍는 2차 피해를 유발한다.

또한, 딥페이크는 특정 개인이나 집단을 음해하고 사회적으로 매장시키기 위한 명예훼손 및 사이버불링의 도구로 악용된다.53 조작된 영상이나 음성을 통해 대상이 하지 않은 발언이나 행동을 한 것처럼 꾸며 유포함으로써 개인의 평판을 심각하게 훼손하고 사회적 관계를 파괴한다. 이러한 행위는 개인의 인격권을 근본적으로 침해하는 폭력이다.

3.2.2 부의 탈취: 금융사기와 경제적 혼란

딥페이크는 금융 시스템과 기업 활동에 직접적인 위협이 되고 있다. 가장 대표적인 사례는 기업의 최고경영자(CEO)나 최고재무책임자(CFO)의 목소리나 영상을 위조하여 재무 담당자에게 접근, 거액의 자금 이체를 지시하는 사기 수법이다. 2024년, 홍콩에 위치한 한 다국적 기업의 직원은 영국 본사 CFO의 모습을 한 딥페이크와의 화상회의에 속아 약 2,500만 달러(약 340억 원)를 사기범에게 송금하는 피해를 입었다.51 이는 딥페이크가 기업의 내부 통제 시스템을 무력화시킬 수 있는 강력한 무기가 될 수 있음을 보여준다.

일반 대중을 대상으로 한 금융사기 역시 급증하고 있다. 일론 머스크, 손석희 등 국내외 유명인의 얼굴과 목소리를 도용하여 특정 주식이나 암호화폐에 대한 투자를 권유하는 가짜 광고 영상이 소셜 미디어를 통해 무차별적으로 유포되고 있다.51 유명인의 공신력을 악용한 이러한 사기는 많은 투자자들에게 실질적인 금전적 피해를 입히고 있다.

뿐만 아니라, 기존의 보이스피싱이나 로맨스 스캠 범죄도 딥페이크 기술과 결합하여 한층 더 정교하고 악랄하게 진화하고 있다. 자녀나 지인의 목소리를 똑같이 복제하여 다급한 상황을 연출하며 돈을 요구하거나 61, 영상 통화를 통해 신뢰를 쌓은 후 금전을 편취하는 로맨스 스캠이 등장하여 피해자들이 속수무책으로 당하는 사례가 늘고 있다.59

3.2.3 민주주의의 위기: 가짜뉴스와 선거 개입

딥페이크는 민주주의의 근간을 이루는 여론 형성과 선거 과정에 심각한 위협을 가한다. 정치인의 발언이나 행동을 악의적으로 조작한 영상을 제작·유포하여 여론을 조작하고, 정치적 반대 세력을 비방하며, 사회적 불신과 이념적 분열을 조장하는 데 사용될 수 있다.51 실제로 버락 오바마 전 미국 대통령이 도널드 트럼프를 비난하는 것처럼 조작된 영상 1, 볼로디미르 젤렌스키 우크라이나 대통령이 자국 군대에 항복을 촉구하는 것처럼 조작된 영상 등은 전 세계적으로 큰 파장을 일으키며 딥페이크의 정치적 위험성을 각인시켰다.63

특히 선거 기간 동안 딥페이크는 민주주의의 핵심인 선거의 공정성을 훼손하는 치명적인 무기가 될 수 있다. 선거일에 임박하여 특정 후보에 대한 음해성 딥페이크 콘텐츠를 유포할 경우, 유권자들이 진위를 파악할 충분한 시간 없이 잘못된 정보에 기반하여 투표할 위험이 크다.65 2023년 슬로바키아 총선 직전, 친서방 성향 후보가 선거 조작을 모의하는 듯한 가짜 음성 파일이 유포되어 선거에 영향을 미쳤다는 분석이 제기되었으며 64, 2024년 미국 뉴햄프셔주 민주당 예비선거에서는 조 바이든 대통령의 목소리를 흉내 내 투표 불참을 독려하는 AI 로보콜이 기승을 부렸다.68 이러한 사례들은 딥페이크가 유권자의 알 권리를 침해하고 민주적 의사결정 과정을 왜곡함으로써 민주주의 시스템 자체를 위협할 수 있음을 명백히 보여준다.

4. 윤리적 딜레마와 사회적 대응

딥페이크 기술의 확산은 단순히 기술적 문제를 넘어, 진실의 본질, 사회적 신뢰, 그리고 개인의 기본권에 대한 근본적인 윤리적, 철학적 질문을 던진다. 이에 대응하기 위해 전 세계적으로 기술적, 법·제도적, 사회적 차원의 다층적 방어 체계 구축이 시도되고 있다.

4.1 진실의 종말과 신뢰의 붕괴

딥페이크 기술은 현대 사회가 직면한 정보 환경의 위기를 상징적으로 보여주는 현상이다. 이는 객관적 실재와 주관적 인식 사이의 경계를 허물며 사회의 근간을 이루는 신뢰 시스템을 위협한다.

4.1.1 탈진실 시대와 딥페이크의 철학적 함의

객관적 사실보다 개인의 감정이나 신념이 여론 형성에 더 큰 영향력을 미치는 ‘탈진실(Post-truth)’ 시대에, 딥페이크는 이러한 경향을 극단으로 몰고 가는 기폭제 역할을 한다.69 딥페이크는 개인이 ‘믿고 싶어 하는’ 서사를 시각적으로 구현해 주는 가장 강력한 도구가 될 수 있다. 이는 사람들이 자신의 기존 신념과 일치하는 정보만을 선택적으로 수용하는 확증 편향(confirmation bias)을 강화하고, 이념적으로 다른 집단 간의 간극을 넓혀 사회적 양극화를 심화시키는 결과를 초래한다.72 결국 딥페이크는 공통의 사실 기반 위에서 이루어지는 합리적 토론의 가능성 자체를 침식시킨다.

4.1.2 ’보는 것이 믿는 것’의 종언과 인식론적 위기

인류는 오랫동안 시각적 증거를 진실을 담보하는 가장 강력한 수단으로 여겨왔다. “보는 것이 믿는 것이다(Seeing is believing)“라는 격언은 이러한 인식론적 전통을 압축적으로 보여준다. 그러나 딥페이크 기술의 보편화는 이 오랜 믿음의 토대를 근본적으로 붕괴시킨다.51 이제 어떠한 영상이나 이미지도 잠재적으로 조작되었을 수 있다는 가능성을 배제할 수 없게 되었다. 이러한 불신은 특정 미디어 콘텐츠에 대한 회의를 넘어, 우리가 현실을 인지하는 방식 자체에 대한 근본적인 회의로 이어진다.

이러한 현상은 ‘정보 아포칼립스(information apocalypse)’ 또는 ’현실 냉소주의(reality apathy)’라는 개념으로 설명될 수 있다.69 이는 진실과 거짓을 구별하려는 노력 자체를 포기하고 모든 정보를 불신하게 되는 상태를 의미한다. 더 나아가, 딥페이크의 존재는 ’거짓말쟁이의 배당금(Liar’s Dividend)’이라는 역설적인 현상을 낳는다.75 이는 실제 범죄나 비리를 저지른 인물이 명백한 영상 증거가 제시되었음에도 불구하고, “이것은 딥페이크다“라고 주장하며 책임을 회피하고 대중의 혼란을 가중시켜 부당한 이득을 취하는 상황을 말한다. 결국 딥페이크는 진실을 위조하는 것을 넘어, 진실 자체를 방어 불가능하게 만드는 무기가 된다.

4.1.3 기본권의 침해: 초상권, 퍼블리시티권, 프라이버시의 재정의

딥페이크 기술은 개인의 동의 없이 그 사람의 얼굴, 신체, 목소리 등 고유한 인격적 표지를 무단으로 사용하여 새로운 콘텐츠를 생성함으로써 다양한 기본권을 침해한다. 이는 헌법상 보장된 인간의 존엄과 가치, 행복추구권에서 파생되는 초상권, 프라이버시권, 그리고 넓은 의미의 인격권을 정면으로 위협하는 행위이다.76

특히 유명인의 초상, 성명, 음성 등을 상업적으로 무단 도용하는 행위는 그 인물이 가진 경제적 가치를 침해하는 것으로, 재산권적 성격을 지닌 ‘퍼블리시티권(Right of Publicity)’ 침해의 핵심적인 문제로 부상하고 있다.78 생성형 AI 기술의 발전으로 유명인의 모습을 정교하게 합성하는 것이 용이해지면서, 과거 상표 도용과 유사한 형태로 퍼블리시티권 침해 행위가 새로운 유형의 지식재산권 문제로 대두되고 있다.79 이는 개인의 인격적 가치가 어떻게 보호받아야 하는지에 대한 법적, 윤리적 재정의를 요구하고 있다.

4.2 위협에 맞서는 다층적 방어 체계

딥페이크가 야기하는 복합적인 위협에 대응하기 위해 국제 사회는 기술, 법·제도, 그리고 플랫폼의 자율 규제와 사회적 인식 개선을 아우르는 다층적인 방어 체계 구축에 나서고 있다.

4.2.1 기술을 통한 기술의 통제: 탐지 및 방어 기술

딥페이크와의 싸움은 기술적 영역에서 가장 치열하게 전개되고 있다. 대응 기술은 크게 생성된 딥페이크를 사후에 식별하는 ’수동적 탐지’와, 딥페이크 생성을 사전에 방해하거나 원본의 진위를 보장하는 ’능동적 방어’로 나눌 수 있다.

  • 수동적 탐지 (Passive Detection): 이 접근법은 딥페이크 영상에 필연적으로 남게 되는 미세한 시각적·청각적 결함, 즉 ’디지털 아티팩트(digital artifact)’를 분석하여 진위를 판별한다.82 AI 기반 탐지 모델(주로 CNN, RNN 등)은 방대한 양의 실제 영상과 딥페이크 영상을 학습하여, 인간의 눈으로는 식별하기 어려운 비정상적인 눈 깜빡임 패턴, 부자연스러운 얼굴 윤곽선, 물리 법칙에 위배되는 조명 및 그림자, 픽셀 수준의 불일치 등을 감지한다.6 더 나아가, 인텔(Intel)이 개발한 ’FakeCatcher’와 같이 영상 속 인물의 피부 픽셀 변화를 통해 혈류의 미세한 변화를 감지하는 광혈류측정(Photoplethysmography, PPG) 기술을 활용, 실제 인간의 생체 신호와 다른 패턴을 찾아내는 독창적인 방식도 등장했다.84
  • 능동적 방어 (Active Defense):
  • 디지털 워터마킹 (Digital Watermarking): 이는 사후 탐지를 넘어선 선제적 방어 전략이다. 원본 미디어(이미지, 영상, 음성)가 생성되거나 배포되는 단계에서부터 인간은 인지할 수 없는 고유한 식별 정보(워터마크)를 삽입하는 기술이다.82 만약 이 미디어가 딥페이크 기술로 변조되면, 내장된 워터마크가 손상되거나 사라지게 된다. 따라서 워터마크의 존재 여부나 무결성을 확인함으로써 콘텐츠의 조작 여부를 판별할 수 있다.87
  • 적대적 공격 (Adversarial Attacks): 보다 공격적인 방어 방식으로, 딥페이크 생성 모델 자체를 무력화시키는 것을 목표로 한다. 예를 들어, 온라인에 공개된 개인 사진에 미세한 노이즈를 추가하여 딥페이크 모델이 해당 얼굴을 학습 데이터로 사용하는 것을 방해하거나(데이터 오염, data poisoning), 생성 과정 자체에 개입하여 고품질의 딥페이크가 만들어지지 않도록 하는 기술들이 연구되고 있다.82

이러한 기술적 대응 방안들은 아래 표와 같이 각기 다른 원리와 장단점을 가진다.

구분세부 기술핵심 원리장점단점대표 사례/연구
수동적 탐지아티팩트 분석 (시각/청각)딥페이크 생성 과정에서 발생하는 부자연스러운 시각적(눈 깜빡임, 얼굴 윤곽) 또는 청각적 불일치 패턴을 AI 모델로 학습하여 탐지함.이미 유포된 콘텐츠에 적용 가능하며, 범용성이 높음.새로운 딥페이크 생성 기술이 등장하면 기존 탐지 모델이 무력화될 수 있음 (지속적인 업데이트 필요).FaceForensics++ 84, CNN/RNN 기반 모델 83
생체 신호 분석영상 속 인물의 얼굴 픽셀 변화를 분석하여 심장 박동에 따른 미세한 혈류 변화(생체 신호)를 측정하고, 실제 인간의 신호와 다른 패턴을 탐지함.물리적 현상에 기반하여 생성 모델이 모방하기 어려움. 실시간 탐지에 유리함.고화질 영상이 필요하며, 조명 변화 등 외부 요인에 민감할 수 있음.Intel FakeCatcher 84
능동적 방어디지털 워터마킹원본 콘텐츠 생성 시점에 보이지 않는 고유 식별자(워터마크)를 삽입. 콘텐츠 변조 시 워터마크가 파괴되거나 변경되어 진위 판별이 가능함.선제적 방어가 가능하며, 원본의 출처와 무결성을 증명할 수 있음.모든 콘텐츠에 워터마크를 사전에 삽입해야 하는 인프라가 필요함. 압축이나 포맷 변환에 취약할 수 있음.Steg AI 88, Digimarc 89
적대적 공격딥페이크 모델의 학습 데이터에 미세한 노이즈를 주입(데이터 오염)하거나, 특정 얼굴이 딥페이크 모델에 의해 사용되는 것을 방해하는 ’보호막’을 씌움.딥페이크 생성을 원천적으로 방해하거나 품질을 저하시킬 수 있음.특정 공격이 모든 딥페이크 모델에 효과적이지 않을 수 있음. 사용자가 직접 자신의 이미지에 적용해야 하는 번거로움이 있음.Fawkes, LowKey 82

4.2.2 법과 제도의 역할: 주요국 규제 동향 비교 분석

딥페이크의 위협이 국경을 초월함에 따라, 각국은 자국의 법체계와 사회적 가치에 기반하여 다양한 규제 방안을 모색하고 있다. 이는 크게 특정 범죄 유형에 집중하는 접근법과 기술 전반을 포괄적으로 규율하는 접근법으로 나뉜다.

  • 대한민국: 초기에는 기존의 명예훼손죄나 정보통신망법상 음란물 유포죄를 적용했으나, 딥페이크 범죄의 특수성과 심각성을 반영하여 관련 법률을 강화하는 방향으로 나아가고 있다. 특히 「성폭력범죄의 처벌 등에 관한 특례법」을 개정하여, 딥페이크 성착취물을 제작, 반포하는 행위뿐만 아니라 소지, 구입, 시청하는 행위까지 처벌하도록 규정했다.90 또한, 2024년 「공직선거법」 개정을 통해 선거일 90일 전부터 선거일까지 딥페이크 영상 등을 이용한 선거운동을 전면 금지하는 조항을 신설했다.94 이는 성범죄와 선거라는 특정 사회적 위험에 강력한 형사 처벌로 대응하는 데 중점을 둔 접근이다.
  • 미국: 연방 차원에서는 딥페이크를 포괄적으로 규제하는 단일 법안은 아직 없으나, 특정 문제에 대응하는 법안들이 제정되고 있다. 2025년 통과된 ’TAKE IT DOWN Act’는 플랫폼 사업자에게 비동의 성적 이미지(딥페이크 포함)에 대한 삭제 의무를 부과하는 대표적인 사례이다.96 규제의 중심은 주(state) 정부에 있으며, 캘리포니아, 텍사스, 뉴욕, 플로리다 등 다수의 주에서 선거운동, 성착취물 제작·유포, 명예훼손 등 특정 목적의 딥페이크 사용을 금지하거나 민사상 손해배상 책임을 부과하는 법률을 제정하여 대응하고 있다.99 이는 표현의 자유를 중시하는 법 문화 속에서 명백한 피해가 발생하는 영역을 중심으로 파편화된(fragmented) 규제를 발전시키는 특징을 보인다.
  • 유럽연합 (EU): 세계 최초로 인공지능 기술 전반을 포괄적으로 규율하는 「AI Act」를 제정하여 가장 체계적이고 보편적인 접근법을 취하고 있다.104 EU는 AI 시스템을 사회에 미치는 위험 수준에 따라 ‘수용 불가’, ‘고위험’, ‘제한된 위험’, ’최소 위험’의 4단계로 분류한다. 딥페이크 기술은 일반적으로 ’제한된 위험(투명성 위험)’으로 분류되어, AI에 의해 생성되거나 조작된 콘텐츠임을 사용자가 명확히 인지할 수 있도록 ’표시(labeling)’해야 할 강력한 투명성 의무를 부과한다.102 이 의무를 위반할 경우, 전 세계 연간 매출액의 상당 비율에 해당하는 막대한 과징금이 부과될 수 있다. 이는 개별 행위를 처벌하기보다, 기술 생태계 전반에 투명성과 책임성을 강제하는 사전 예방적 규제 철학을 보여준다.

이러한 규제 접근법의 차이는 각 사회가 중시하는 가치(예: 미국의 표현의 자유, EU의 기본권 보호)와 법체계의 차이에서 비롯된다. 그러나 인터넷의 초국경적 특성상, 한 국가의 규제만으로는 딥페이크 문제에 효과적으로 대응하기 어렵다. 이는 딥페이크라는 글로벌 기술 위협에 맞서기 위한 국제적 공조와 표준화된 규범의 필요성을 강력히 시사한다. 특히 EU의 AI Act와 같은 포괄적 규제 모델은 향후 글로벌 표준 논의의 중요한 기준점(benchmark)이 될 가능성이 높다.

국가/지역주요 법안규제 대상핵심 내용 및 처벌 수위특징 및 철학
대한민국성폭력처벌법, 공직선거법성착취물, 선거운동- 성착취물: 제작·반포·소지·시청 등 처벌 (최대 7년 이하 징역) - 선거운동: 선거 90일 전부터 금지, 위반 시 징역 또는 벌금특정 범죄 유형(성범죄, 선거)에 대한 강력한 형사 처벌 중심의 사후 규제.
미국TAKE IT DOWN Act (연방), 각 주(州)별 법안 (CA, TX, NY 등)비동의 성적 이미지, 선거운동, 명예훼손- 연방: 플랫폼에 비동의 성적 이미지 삭제 의무 부과 - 주(州): 선거 관련 딥페이크 유포 금지, 민사상 손해배상 청구권 부여표현의 자유를 중시하며, 명백한 피해가 발생하는 특정 영역에 대해 주(州) 단위의 파편화된 규제.
유럽연합AI Act, 디지털서비스법(DSA)모든 AI 시스템(딥페이크 포함), 불법 콘텐츠- AI Act: 딥페이크 등 AI 생성 콘텐츠에 대한 ‘투명성 의무’(표시 의무) 부과, 위반 시 막대한 과징금 - DSA: 플랫폼에 불법 콘텐츠(딥페이크 포함) 삭제 의무 부과위험 기반 접근법에 따른 포괄적·사전적 규제. 기술 생태계 전반의 책임성 강화를 통한 기본권 보호 중심.

4.2.3 플랫폼의 책임과 사회적 합의

딥페이크 콘텐츠의 주요 유통 경로인 소셜 미디어 플랫폼의 역할은 매우 중요하다. 구글, 메타(페이스북, 인스타그램), 틱톡 등 주요 빅테크 기업들은 비판에 직면하여 자율 규제 강화에 나서고 있다. 이들은 공통적으로 AI 기술로 생성되거나 조작된 콘텐츠에 대해 ’AI 생성(AI-generated)’과 같은 라벨을 부착하는 정책을 도입하고 있다.59 또한, 딥페이크를 이용한 비동의 성착취물이나 폭력적 콘텐츠, 금융사기 광고 등을 서비스 약관 위반으로 규정하고 이를 금지 및 삭제하는 정책을 시행하고 있다.107 2024년 뮌헨안보회의에서는 어도비, 구글, 메타, 마이크로소프트, OpenAI, 틱톡 등 20개의 주요 기술 기업들이 모여 선거를 방해할 수 있는 기만적인 AI 콘텐츠에 공동으로 대응하겠다는 기술 협약에 서명하기도 했다.68 이는 법적 강제력을 넘어선 글로벌 거버넌스 구축의 초기 단계로 평가될 수 있다.

그러나 기술적, 법적 규제만으로는 딥페이크의 위협에 온전히 대응할 수 없다. 궁극적으로는 사회 구성원 전체의 비판적 사고 능력을 함양하는 것이 중요하다. 대중이 딥페이크의 존재와 위험성을 인지하고, 온라인에서 접하는 정보를 무조건적으로 신뢰하기보다 출처를 확인하고 교차 검증하는 습관을 기를 수 있도록 디지털 리터러시 및 미디어 정보 리터러시(Media and Information Literacy, MIL) 교육을 전 세대에 걸쳐 강화해야 한다.7 이는 딥페이크라는 새로운 도전에 맞서는 사회 전체의 ’디지털 면역력’을 키우는 근본적인 해결책이 될 것이다.

5. 결론: 기술 공존의 윤리를 향하여

5.1 딥페이크 시대의 핵심 과제 요약

본 안내서는 딥페이크 기술의 핵심 원리인 VAE와 GAN의 기술적 토대를 분석하는 것에서 출발하여, 이 기술이 엔터테인먼트, 의료, 교육 등에서 창출하는 혁신적 기회와 디지털 성범죄, 금융사기, 정치적 허위정보 등 사회의 근간을 흔드는 파괴적 위협을 다각도로 조명했다. 딥페이크는 ’보는 것이 믿는 것’이라는 전통적 인식을 붕괴시키고, 탈진실 시대를 가속화하며, 사회적 신뢰 자본을 심각하게 침식하는 인식론적 위기를 초래한다. 동시에 초상권, 프라이버시, 퍼블리시티권 등 개인의 기본권을 전례 없는 방식으로 위협한다.

이러한 도전에 맞서 기술적 탐지 및 방어, 주요국의 법제도적 규제, 플랫폼의 자율 규제, 그리고 디지털 리터러시 교육 강화 등 다층적인 대응 노력이 전개되고 있음을 확인했다. 결국 딥페이크 시대가 우리에게 던지는 핵심 과제는, 기술의 창의적 잠재력을 억압하지 않으면서도 진실의 가치를 수호하고, 개인의 인격권을 보호하며, 민주주의의 건강성을 지키는 섬세하고도 견고한 균형점을 어떻게 찾아낼 것인가의 문제로 귀결된다.

5.2 지속 가능한 기술 발전을 위한 제언: 규제, 교육, 기술 개발의 조화

딥페이크 문제에 대한 효과적이고 지속 가능한 대응은 어느 한 영역의 노력만으로는 결코 달성될 수 없다. 기술, 법, 사회가 유기적으로 연계된 총체적 접근이 필수적이다.

  1. 조화로운 규제 (Harmonized Regulation): 표현의 자유와 같은 기본적 가치를 존중하되, 비동의 성착취물, 금융사기, 선거 개입과 같이 명백한 사회적 해악을 야기하는 악의적 딥페이크 활용에 대해서는 국경을 넘어 엄정하게 책임을 묻는 국제적으로 조화된 법적 프레임워크 구축을 서둘러야 한다. EU의 AI Act와 같은 포괄적 접근법과 미국의 특정 피해 중심 접근법의 장점을 결합하여, 유연하면서도 강력한 글로벌 규제 표준을 마련하기 위한 국제적 논의가 시급하다.
  2. 비판적 시민성 교육 (Critical Citizenship Education): 기술적, 법적 장치만으로는 끊임없이 진화하는 딥페이크의 모든 변종을 막을 수 없다. 가장 강력한 방어선은 결국 깨어있는 시민의 비판적 사고 능력이다. 유아기부터 노년층까지 전 세대를 대상으로, 미디어 콘텐츠의 출처를 확인하고, 맥락을 파악하며, 정보를 비판적으로 판별하고 수용하는 능력을 기르는 디지털 및 미디어 정보 리터러시 교육을 국가적 의제로 삼아 체계적으로 강화해야 한다.
  3. 책임 있는 기술 개발 (Responsible Technology Development): 딥페이크 탐지 및 방어 기술에 대한 지속적인 연구개발 투자를 지원하여 ’기술적 군비 경쟁’에서 뒤처지지 않도록 해야 한다. 동시에, AI 생성물에 대한 출처 및 이력(provenance)을 명확히 하는 기술, 예를 들어 디지털 워터마킹이나 C2PA(Coalition for Content Provenance and Authenticity)와 같은 표준을 기술 생태계 전반에 보편적으로 적용하도록 장려하고 의무화해야 한다. 이는 기술 생태계 자체의 신뢰성과 투명성을 높이는 근본적인 조치가 될 것이다.

궁극적으로 딥페이크 시대는 우리에게 기술을 개발하고 사용하는 모든 행위에 대해 더 깊은 윤리적 성찰과 사회적 책임을 요구한다. 기술과 인간이 서로를 파괴하는 경쟁 관계가 아닌, 인간의 존엄성을 확장하고 사회 발전에 기여하는 건강한 공존 관계를 맺기 위한 사회적 합의를 구축하는 것, 이것이 우리 시대에 주어진 중요한 과제이다.

6. 참고 자료

  1. 딥페이크 기술의 빛과 그림자, https://www.kca.kr/fileDownload.do?action=fileDown&mode=&boardId=TRENDS&seq=5310642&fileSn=1
  2. 다듬은 말(딥페이크) - 국립국어원, https://www.korean.go.kr/front/imprv/refineView.do?mn_id=158&imprv_refine_seq=20745
  3. Deepfake - Wikipedia, https://en.wikipedia.org/wiki/Deepfake
  4. 딥페이크 - 위키백과, 우리 모두의 백과사전, https://ko.wikipedia.org/wiki/%EB%94%A5%ED%8E%98%EC%9D%B4%ED%81%AC
  5. 딥페이크: 기술 발전의 양면성과 우리의 대응 - Goover, https://seo.goover.ai/report/202503/go-public-report-ko-f82e258c-5e7c-4606-a506-e3397bc9fd03-0-0.html
  6. Deepfakes, explained | MIT Sloan, https://mitsloan.mit.edu/ideas-made-to-matter/deepfakes-explained
  7. 딥페이크 기술의 역사 - AKOOL, https://akool.com/ko/knowledge-base-article/history-of-deepfake-technology
  8. Positive Use Cases of “Deepfakes” | Wilson Center, https://www.wilsoncenter.org/article/positive-use-cases-deepfakes
  9. What are Deepfakes? Good vs Bad Use Case Examples - iDenfy, https://www.idenfy.com/blog/what-are-deepfakes/
  10. Exploring the Bright Side of Deepfake Technology - Birchwood University, https://www.birchwoodu.org/exploring-the-bright-side-of-deepfake-technology/
  11. 딥페이크 기술의 발전과 브랜드 마케팅에 미치는 영향 - Appier, https://www.appier.com/ko-kr/blog/eb85bceb9e80ec9d98-eb94a5ed8e98ec9db4ed81acdeepfake-eab7b8-eb82b4eba789eab3bc-ebb88ceb9e9ceb939cec9790-ebafb8ecb9a0-ec9881ed96a5
  12. 딥페이크란 무엇이고, 기업에 어떤 영향을 미치는가? | 인사이트리포트 | 삼성SDS, https://www.samsungsds.com/kr/insights/what-is-a-deepfake.html
  13. Variational Autoencoders: How They Work and Why They Matter | DataCamp, https://www.datacamp.com/tutorial/variational-autoencoders
  14. What is a Variational Autoencoder? | IBM, https://www.ibm.com/think/topics/variational-autoencoder
  15. Difference between AutoEncoder (AE) and Variational AutoEncoder (VAE), https://towardsdatascience.com/difference-between-autoencoder-ae-and-variational-autoencoder-vae-ed7be1c038f2/
  16. Understanding the Differences Between AutoEncoder (AE) and Variational AutoEncoder (VAE) | by Etorezone | Medium, https://medium.com/@etorezone/understanding-the-differences-between-autoencoder-ae-and-variational-autoencoder-vae-1ccb52ebf76c
  17. What is Variational Autoencoders ? - Analytics Vidhya, https://www.analyticsvidhya.com/blog/2023/07/an-overview-of-variational-autoencoders/
  18. Variational AutoEncoders - GeeksforGeeks, https://www.geeksforgeeks.org/machine-learning/variational-autoencoders/
  19. Difference between AutoEncoder (AE) and Variational AutoEncoder …, https://towardsdatascience.com/difference-between-autoencoder-ae-and-variational-autoencoder-vae-ed7be1c038f2
  20. VAE 설명 (Variational autoencoder란? VAE ELBO 증명) - 유니의 공부 - 티스토리, https://process-mining.tistory.com/161
  21. Derivation of ELBO in VAE - Fangda Han - Medium, https://fangdahan.medium.com/derivation-of-elbo-in-vae-25ad7991fdf7
  22. Variational autoencoders - Matthew N. Bernstein, https://mbernste.github.io/posts/vae/
  23. Tutorial: Deriving the Standard Variational Autoencoder (VAE) Loss Function - arXiv, https://arxiv.org/pdf/1907.08956
  24. Tutorial - What is a variational autoencoder? - Jaan Lı 李, https://jaan.io/what-is-variational-autoencoder-vae-tutorial/
  25. Balancing Reconstruction Error and Kullback-Leibler Divergence in Variational Autoencoders, https://cris.unibo.it/retrieve/e1dcb336-297f-7715-e053-1705fe0a6cc9/09244048.pdf
  26. Finally! A Clear Derivation of the VAE KL Loss | by Jae H. Park | Medium, https://medium.com/@jpark7/finally-a-clear-derivation-of-the-vae-kl-loss-4cb38d2e47b3
  27. Role of KL-divergence in Variational Autoencoders - GeeksforGeeks, https://www.geeksforgeeks.org/machine-learning/role-of-kl-divergence-in-variational-autoencoders/
  28. What Is a Deepfake? Definition & Technology | Proofpoint US, https://www.proofpoint.com/us/threat-reference/deepfake
  29. [1406.2661] Generative Adversarial Networks - arXiv, https://arxiv.org/abs/1406.2661
  30. Generative Adversarial Network (GAN) - GeeksforGeeks, https://www.geeksforgeeks.org/deep-learning/generative-adversarial-network-gan/
  31. Generative Adversarial Nets - arXiv, https://arxiv.org/pdf/1406.2661
  32. A Tutorial on Generative Adversarial Networks with Application to Classification of Imbalanced Data - PMC, https://pmc.ncbi.nlm.nih.gov/articles/PMC9529000/
  33. What is a GAN? - Generative Adversarial Networks Explained - AWS, https://aws.amazon.com/what-is/gan/
  34. Generative adversarial network - Wikipedia, https://en.wikipedia.org/wiki/Generative_adversarial_network
  35. Overview of GAN Structure | Machine Learning | Google for …, https://developers.google.com/machine-learning/gan/gan_structure
  36. Generative Adversarial Nets - NIPS, http://papers.neurips.cc/paper/5423-generative-adversarial-nets.pdf
  37. Mini-Max Optimization Design of Generative Adversarial Networks (GAN), https://towardsdatascience.com/mini-max-optimization-design-of-generative-adversarial-networks-gan-dc1b9ea44a02/
  38. Generative Adversarial Networks - cs.princeton.edu, https://www.cs.princeton.edu/courses/archive/spring17/cos598E/GANs.pdf
  39. Loss Functions | Machine Learning - Google for Developers, https://developers.google.com/machine-learning/gan/loss
  40. Understanding the Min-Max Loss Function in GANs | by ML and DL Explained - Medium, https://medium.com/@ml_dl_explained/understanding-the-min-max-loss-function-in-gans-66203c989fc6
  41. Understanding GAN Loss Functions - Neptune.ai, https://neptune.ai/blog/gan-loss-functions
  42. Deriving the minimax equation for GANs, https://suzyahyah.github.io/generative%20models/2024/07/25/GANs-objective-first-principles.html
  43. [2203.00667] Generative Adversarial Networks - arXiv, https://arxiv.org/abs/2203.00667
  44. Artificial intelligence: deepfakes in the entertainment industry - WIPO, https://www.wipo.int/web/wipo-magazine/articles/artificial-intelligence-deepfakes-in-the-entertainment-industry-42620
  45. 딥페이크(Deepfake)가 긍정적으로 활용될 수 있다고? - 신시웨이, https://www.sinsiway.com/kr/pr/blog/view/431/page/2
  46. [9편] 딥페이크(Deepfake) 모든것: 기술, 활용, 그리고 윤리적 딜레마, https://newitlec.com/entry/9%ED%8E%B8-%EB%94%A5%ED%8E%98%EC%9D%B4%ED%81%ACDeepfake-%EA%B8%B0%EC%88%A0-GAN%EA%B3%BC-LSTM%EC%9D%98-%ED%86%B5%ED%95%A9%EC%97%90-%EB%8C%80%ED%95%9C-%EA%B8%B0%EC%88%A0%EC%A0%81-%EA%B2%80%ED%86%A0
  47. 딥페이크의 두 얼굴 ‘암 진단’ ‘합성누드’ - 한겨레, https://www.hani.co.kr/arti/science/future/901093.html
  48. Beyond Deception: Exploiting Deepfake Technology for Ethical Innovation in Healthcare, https://www.researchgate.net/publication/385446744_Beyond_Deception_Exploiting_Deepfake_Technology_for_Ethical_Innovation_in_Healthcare
  49. 미메시스(Mimesis)로 본 딥페이크 기술의 무용예술 적용가능성 연구, https://ksds-ejournal.or.kr/xml/36458/36458.pdf
  50. The Malicious Exploitation of Deepfake Technology: Political Manipulation, Disinformation, and Privacy Violations in Taiwan, https://globaltaiwan.org/2025/05/the-malicious-exploitation-of-deepfake-technology/
  51. 딥페이크 기술을 이용한 신종범죄에 대한 법정책적 시사점, https://scc.sogang.ac.kr/Download?pathStr=NTQjIzUwIyM1MiMjMTI0IyMxMDQjIzExNiMjOTcjIzgwIyMxMDEjIzEwOCMjMTA1IyMxMDIjIzM1IyMzMyMjMzUjIzQ5IyMxMjQjIzEyMCMjMTAxIyMxMDAjIzExMCMjMTA1IyMzNSMjMzMjIzM1IyM1NCMjNTUjIzUxIyM1MiMjNDkjIzU3IyMxMjQjIzEwMCMjMTA1IyMxMDcjIzExMg==&fileName=04+%EA%B9%80%ED%9D%AC%EC%A0%95_2024.10.13.3.97.pdf&gubun=board
  52. 딥페이크 관련 국내외 규제 동향 분석 - 정보통신정책연구원, https://www.kisdi.re.kr/report/fileDown.do?key=m2101113025377&arrMasterId=4333446&id=1783436
  53. 딥페이크 범죄, 기술 악용의 심각성과 대응 방안, https://www.gggongik.or.kr/m/page/archive/archiveinfo_detail.html?board_idx=7863
  54. SNS에 사진이 사라진 이유, 딥페이크가 붕괴시킨 우리 - 브런치, https://brunch.co.kr/@3e147aeeeb0c425/1
  55. 딥페이크를 활용한 가짜뉴스 - 디지털공론장, https://survey.beingdigital.kr/survey/deepfake_results.php
  56. Deepfakes and Victimology: Exploring the Impact of Digital Manipulation on Victims, https://www.substantivejustice.id/index.php/sucila/article/view/306
  57. Deepfake threats to companies - KPMG International, https://kpmg.com/xx/en/our-insights/risk-and-regulation/deepfake-threats.html
  58. Deepfake is threatening trust in society - SINTEF, https://www.sintef.no/en/latest-news/2025/deepfake-is-threatening-trust-in-society/
  59. 딥페이크 관련 국내외 규제 현황 및 분석, https://mediasvr.egentouch.com/egentouch.media/apiFile.do?action=view&SCHOOL_ID=1007002&URL_KEY=716e22d9-c763-48db-aa04-df4f0423e00a
  60. 미디어 이슈 & 트렌드 1+2월호(Vol.60) - (국내 리포트)딥페이크 기술과 투자 사기 광고, https://www.kca.kr/Media_Issue_Trend/vol60/KCA60_22_domestic.html
  61. 딥페이크 이용, “자녀 납치 했다” 사기 주의 - 보이스피싱 신고, https://www.counterscam112.go.kr/bbs002/board/boardDetail.do?pageIndex=1&pageUnit=10&pstSn=5&searchCondition=1&searchKeyword=
  62. 영상 통화로 돈을 빌려달라는 지인! 그런데 그게 딥페이크였다고?! 진화하는 딥페이크 범죄와 AI사각지대 | 무엇이든 물어보세요 | KBS 2024.06.06 방송 - YouTube, https://www.youtube.com/watch?v=Gv4AOQkxrzE
  63. Deepfakes and Their Impact on Society - CPI OpenFox, https://www.openfox.com/deepfakes-and-their-impact-on-society/
  64. Deepfakes and the War on Trust - The Cipher Brief, https://www.thecipherbrief.com/deepfake-war-on-trust
  65. Regulating AI Deepfakes and Synthetic Media in the Political Arena, https://www.brennancenter.org/our-work/research-reports/regulating-ai-deepfakes-and-synthetic-media-political-arena
  66. THE IMPACT OF DEEPFAKES ON ELECTIONS AND METHODS OF COMBATING DISINFORMATION IN THE VIRTUAL WORLD - Open Journal Systems @ Academicon, https://ojs.academicon.pl/tkppan/article/download/8615/9095/24839
  67. Deepfakes and Disinformation: What impact could this have on elections in 2024? - techUK, https://www.techuk.org/resource/deepfakes-and-disinformation-what-impact-could-this-have-on-elections-in-2024.html
  68. Tech giants sign voluntary accord to combat election deepfakes generated with AI - PBS, https://www.pbs.org/newshour/nation/tech-giants-sign-voluntary-accord-to-combat-election-deepfakes-generated-with-ai
  69. The Emergence of Deepfake Technology: A Review - ResearchGate, https://www.researchgate.net/publication/337644519_The_Emergence_of_Deepfake_Technology_A_Review
  70. Deepfake data in the post-truth era - theGIST, https://the-gist.org/2020/07/deepfake-data-in-the-post-truth-era/
  71. DEEPFAKE: A Rhetorical and Economic Alternative to Address the So-Called “Post-Truth Era” - Social Science Matrix, https://matrix.berkeley.edu/events/deepfake-a-rhetorical-and-economic-alternative-to-address-the-so-called-post-truth-era/
  72. How Deepfakes Are Impacting Public Trust in Media - Pindrop, https://www.pindrop.com/article/deepfakes-impacting-trust-media/
  73. AI-Enabled Influence Operations: Safeguarding Future Elections, https://cetas.turing.ac.uk/publications/ai-enabled-influence-operations-safeguarding-future-elections
  74. Deepfakes and the Erosion of U.S. Democracy: Societal Trust and AI Regulation - Political Science, https://www.polisci.uci.edu/files/docs/theses/2024-25/2025_natalie_ringdahl.pdf
  75. Watch out for false claims of deepfakes, and actual deepfakes, this election year | Brookings, https://www.brookings.edu/articles/watch-out-for-false-claims-of-deepfakes-and-actual-deepfakes-this-election-year/
  76. 딥페이크 기술에 의한 인격권 침해 검토 - 초상권을 중심으로 - KISS - 한국학술정보, https://kiss.kstudy.com/Detail/Ar?key=4162643
  77. 가상인간의 인격에 대한 법적 고찰, https://www.pac.or.kr/_common/new_download_file.asp?menu=magazine_sub&sub_idx=7752
  78. 딥페이크 등 최근 기술발전에 따른 퍼블리시티 이용 환경 변화와 최근 입법 동향에 대한 고찰, https://welcon.kocca.kr/cmm/fms/CrawlingFileDown.do?atchFileId=FILE_68bb9593-87d0-4ff9-8385-a7b1670c6b0c&fileSn=1
  79. [기고] 딥페이크, 퍼블리시티권 침해 주의를 - 세계일보, https://www.segye.com/newsView/20241121523305
  80. 인도] 뭄바이 고등법원, AI를 이용한 아티스트 딥페이크에 대한 퍼블리시티권 침해인정(김경숙 … - 한국저작권위원회, https://www.copyright.or.kr/information-materials/trend/the-copyright/view.do?brdctsno=53392
  81. 유명인 쏙~ 빼닮은 ‘딥페이크’… 美 저작권청, 저작권 침해 행위로 간주 - IPDaily, https://www.ipdaily.co.kr/2024/09/23/22/15/18/34914/%EC%9C%A0%EB%AA%85%EC%9D%B8-%EC%8F%99-%EB%B9%BC%EB%8B%AE%EC%9D%80-%EB%94%A5%ED%8E%98%EC%9D%B4%ED%81%AC-%E7%BE%8E-%EC%A0%80%EC%9E%91%EA%B6%8C%EC%B2%AD-%EC%A0%80%EC%9E%91%EA%B6%8C-%EC%B9%A8/
  82. [보안 리포트] 딥페이크가 당신을 노린다! 방어법 총정리, https://m.boannews.com/html/detail.html?tab_type=1&idx=136811
  83. How to detect Deepfakes using AI? - GeeksforGeeks, https://www.geeksforgeeks.org/artificial-intelligence/how-to-detect-deepfakes-using-ai/
  84. Top 10 AI Deepfake Detection Tools to Combat Digital Deception in 2025 - SOCRadar, https://socradar.io/top-10-ai-deepfake-detection-tools-2025/
  85. (PDF) Detecting Deepfake Videos using Digital Watermarking - ResearchGate, https://www.researchgate.net/publication/358729656_Detecting_Deepfake_Videos_using_Digital_Watermarking
  86. Combating Deepfake Videos with Digital Watermarking - Antispoofing Wiki, https://antispoofing.org/combating-deepfake-videos-with-digital-watermarking/
  87. Proactive Deepfake Defence via Identity Watermarking - CVF Open Access, https://openaccess.thecvf.com/content/WACV2023/papers/Zhao_Proactive_Deepfake_Defence_via_Identity_Watermarking_WACV_2023_paper.pdf
  88. Content Verification and Deepfake Detection - Steg.AI, https://steg.ai/products/content-authentication/
  89. Detecting Deepfake Videos using Digital Watermarking - APSIPA, http://www.apsipa.org/proceedings/2021/pdfs/0001786.pdf
  90. 딥페이크 제작 처벌, 피해자와 가해자의 법적 대응 방법, https://blog.xn–jk1bn6phxdlbx19c56ak97a.com/blog/%EB%94%94%EC%A7%80%ED%84%B8%EC%84%B1%EB%B2%94%EC%A3%84/%EB%94%A5%ED%8E%98%EC%9D%B4%ED%81%AC-%EB%B2%94%EC%A3%84%EC%99%80-%EB%B2%95%EC%A0%81-%EB%8C%80%EC%9D%91-%EB%B0%A9%EB%B2%95
  91. 딥페이크 성착취물 알고도 소지·시청하면 처벌…법사위 통과 / YTN - YouTube, https://www.youtube.com/watch?v=ey-Da8i65IM
  92. “보거나 소지해도 징역형”… 딥페이크 처벌법 국회 통과 - 한국일보, https://www.hankookilbo.com/News/Read/A2024092621100001800
  93. 딥페이크/성범죄 - 나무위키, https://namu.wiki/w/%EB%94%A5%ED%8E%98%EC%9D%B4%ED%81%AC/%EC%84%B1%EB%B2%94%EC%A3%84
  94. 딥페이크 기반 허위정보 대응 정책 비교 연구 - Korea Science, https://www.koreascience.kr/article/JAKO202511539607999.pdf
  95. ‘슈퍼 선거의 해’ 딥페이크 정치 콘텐츠 악용 사례 및 대응 방안, https://www.kisdi.re.kr/report/fileDown.do?key=m2102058837181&arrMasterId=4334696&id=1762156
  96. Forged Faces, Real Liability: Deepfake Laws Take Effect in Washington State and Pennsylvania | Crowell & Moring LLP, https://www.crowell.com/en/insights/client-alerts/forged-faces-real-liability-deepfake-laws-take-effect-in-washington-state-and-pennsylvania
  97. 미국 의회, ‘Take It Down Act’ 통과… AI 딥페이크 강력 규제 시동 > AI소식 - GPT매거진, https://gptmagazine.net/gptai/626?sfl=wr_subject&stx=c&sop=and
  98. “우리 아이들을 지켜야 합니다”… 트럼프, 딥페이크 처벌 강화 법 서명 - 오마이뉴스, https://www.ohmynews.com/NWS_Web/View/at_pg.aspx?CNTN_CD=A0003132781
  99. Summary Deceptive Audio or Visual Media (‘Deepfakes’) 2024 Legislation - National Conference of State Legislatures, https://www.ncsl.org/technology-and-communication/deceptive-audio-or-visual-media-deepfakes-2024-legislation
  100. EU·영국·호주, 플랫폼에 딥페이크 활용한 불법·유해 정보의 관리 책임 강화 - KDI 경제교육, https://eiec.kdi.re.kr/publish/naraView.do?fcode=00002000040000100009&cidx=14939&sel_year=2024&sel_month=11
  101. 미국 딥페이크 관련 법안 동향과 보험회사의 대응, https://www.kiri.or.kr/report/downloadFile.do?docId=571039
  102. 딥페이크 규제 ‘주요 국가별 정책 및 법제 현황’, https://www.mediin.or.kr/upload/raonkeditordata/2025/06/20250625_084649815_88447.pdf
  103. 주요동향 : S&T GPS - KISTEP 한국과학기술기획평가원, https://www.kistep.re.kr/gpsTrendView.es?mid=a30200000000&list_no=3194&nPage=7
  104. 유럽연합 인공지능법(EU AI Act)의 주요내용 및 시사점 - 소프트웨어정책연구소, https://www.spri.kr/download/23545
  105. 8 EU, 인공지능법(AI Act) 발효, https://www.kistep.re.kr/gpsBoardDownload.es?board_se=trend&list_no=3342&seq=1
  106. 딥페이크 관련 해외 입법동향 - 법제처, https://moleg.go.kr/boardDownload.es?bid=legnlpst&list_key=3762&seq=1
  107. Social Media Policies: Mis/Disinformation, Threats, and Harassment, https://statesunited.org/resources/social-media-policies/
  108. 정책 업데이트: 성적인 딥페이크 콘텐츠 홍보에 관한 제한사항, https://support.google.com/merchants/answer/14754454?hl=ko
  109. Science & Tech Spotlight: Combating Deepfakes | U.S. GAO, https://www.gao.gov/products/gao-24-107292